首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI

    Qwen Code 0.12.0 发布:新特性太丝滑了!

    三、快速升级与使用建议升级方式只需一行命令即可升级到最新版本:展开代码语言:BashAI代码解释npmi@qwen-code/qwen-code@latest-g如果需要使用VSCode侧边栏功能,可在

    22310编辑于 2026-03-20
  • 来自专栏自然语言处理

    通义千问 - Code Qwen能力算法赛道季军方案

    在23年最后一月,我们团队VScode参加了天池通义千问AI挑战赛 - Code Qwen能力算法赛道,经过初赛和复赛的评测,我们最后取得季军的成绩,团队成员来自中科院计算所、B站等单位,在这里非常感谢队友的努力付出 Qwen 1.8B 及 Qwen 72B 的代码能力上限。 -d generation_base_dir ]; then mkdir generation_base_dir fi ​ batch_size=1 n_samples=1 # For qwen base model, eos is ‘<|endoftext|>’; for fine-tuned qwen model, eos is ‘<|im_end|>’ eos_token=“<|im_end https://huggingface.co/datasets/code_x_glue_ct_code_to_text https://huggingface.co/datasets/codeparrot

    51810编辑于 2024-01-08
  • 让Claude Code使用qwen3-coder大模型(极速精简版)

    前提条件 本文假定你已经完成了以下前提条件的准备: 已经安装了Claude Code命令行开发工具 已经开通了阿里云百炼大模型平台的API服务 可以使用命令npm install -g @anthropic-ai /claude-code安装Claude Code。 ANTHROPIC_AUTH_TOKEN='YOUR_DASHSCOPE_API_KEY'" >> ~/.bash_profile source ~/.bash_profile 启动并运行Claude Code echo $ANTHROPIC_BASE_URL echo $ANTHROPIC_AUTH_TOKEN 然后,启动Claude Code。 claude 一切正常的话,你就可以通过Claude Code调用Qwen-coder大模型进行开发,解除Claude订阅额度不够的焦虑啦。

    4K10编辑于 2025-08-30
  • 来自专栏机器学习与统计学

    Qwen3.5本地部署终极指南,Qwen3.5-27B

    Qwen3.5 轻量版来了,更智能,更小巧,量化版本地部署,消费级显卡轻松跑 一文中测试了,十分建议:首选 Qwen3.5-27B,无论是官方benchmark测评还是其他网友评价,都支持这一结论 Qwen3.5 全阵容:阿里这次玩了个大的 阿里最新发布的 Qwen3.5,不再只是单个模型,而是一整个军团: 型号 类型 总参数 激活参数 定位 Qwen3.5-27B Dense 27B 27B 稳扎稳打型 Qwen3.5 -35B-A3B MoE 35B 3B 极速小钢炮 Qwen3.5-122B-A10B MoE 122B 10B 中杯选手 Qwen3.5-397B-A17B MoE 397B 17B 旗舰巨兽 两个关键词 硬件需求速查 这是最实际的部分,别收藏了不看: 型号 4-bit 量化 8-bit 量化 原始 FP16 Qwen3.5-27B 17 GB 30 GB 54 GB Qwen3.5-35B-A3B 22 GB 38 GB 70 GB Qwen3.5-122B-A10B 70 GB 132 GB 245 GB Qwen3.5-397B-A17B 214 GB 512 GB 810 GB 翻译成人话

    12.1K42编辑于 2026-03-02
  • 来自专栏机器学习与统计学

    Qwen3.5 本地部署

    Unsloth Dynamic 2.0 量化 Unsloth 其实是第一时间就发布了 Qwen3.5-397B-A17B 的 GGUF 格式文件(Qwen 给了 Unsloth day zero 访问权限 /llama.cpp/llama-server \ --model unsloth/Qwen3.5-397B-A17B-GGUF/MXFP4_MOE/Qwen3.5-397B-A17B-MXFP4 无缝接入所有支持 OpenAI API 格式的工具——Qwen Code、Claude Code、Cline、OpenClaw、OpenCode 等等。 /Qwen3.5-397B-A17B --port 8000 --continuous-batching # 或者直接命令行对话 transformers chat Qwen/Qwen3.5-397B-A17B --reasoning-parser qwen3 vLLM: vllm serve Qwen/Qwen3.5-397B-A17B \ --port 8000 \ --tensor-parallel-size

    3K10编辑于 2026-03-02
  • 来自专栏LLM

    AI Compass前沿速览:CodeBuddy Code、即梦4.0、MiniCPM 4.1 、Hunyuan2.1、Qwen3-ASR、SpikingBra

    AI Compass前沿速览:CodeBuddy Code、即梦4.0、MiniCPM 4.1 、Hunyuan2.1、Qwen3-ASR、SpikingBrain脑脉冲大模型AI-Compass 致力于构建最全面 CodeBuddy Code – 腾讯推出的自研AI编程终端工具CodeBuddy Code是腾讯推出的一款自研AI编程终端工具(AI CLI),旨在通过自然语言驱动开发全流程,实现极致自动化。 技术原理CodeBuddy Code的核心技术原理基于先进的AI模型和自然语言处理技术。 工具链集成:通过与Git、npm、VS Code等主流开发工具的无缝衔接,实现AI能力在开发者工作流中的原生集成,增强了其适用性和扩展性。 该模型以Qwen3大型语言模型为基座,并经过海量多模态及特定语音识别(ASR)数据的训练优化,旨在提供高效、高精度的语音转文本服务,是通义千问Qwen3系列在语音领域的重要扩展。

    58410编辑于 2025-09-11
  • 实测Qwen2.5-Math效果

    Qwen2.5全家桶发布,特别是在中间还整了一个Qwen2.5-Math模型,特定针对数学能力进行推理。这不免让人想起前段时间OpenAI才发布的o1大模型。 到底Qwen2.5-Math效果怎么样,可以直接拿数学题目给他进行测试。 Qwen2.5-Math一直到这里还是得出的正确的步骤。但是后面的步骤有点看不懂了。 但是由于o1大模型得出的步骤和答案离正确答案更加接近,因此从评分上看效果要比Qwen2.5-Math要好一点。 本人还是很看好Qwen模型系列的,而且它还没有加入COT这种推理逻辑大杀器,推理能力上就能够和o1大模型差不多了,期望Qwen3的出现能够超越国外的大模型。

    75410编辑于 2024-09-22
  • Qwen-7B-Chat WebDemo

    Qwen-7B-Chat WebDemo 环境准备 在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04)–>11.8 /Qwen-7B-Chat', cache_dir='/root/autodl-tmp', revision='v1.1.4') 代码准备 首先clone代码,打开autodl平台自带的学术镜像加速。 unset http_proxy && unset https_proxy 修改代码路径,将 /root/autodl-tmp/Qwen/web_demo.py中 13 行的模型更换为本地的/root/ autodl-tmp/qwen/Qwen-7B-Chat。 运行以下命令即可启动推理服务 cd /root/autodl-tmp/Qwen python web_demo.py --server-port 6006 将 autodl 的端口映射到本地的 http

    34511编辑于 2025-07-17
  • Qwen-7B-Chat Lora 微调

    对于自定义的模型一定要指定trust_remote_code参数为True。 tokenizer = AutoTokenizer.from_pretrained('/root/autodl-tmp/qwen/Qwen-7B-Chat', use_fast=False, trust_remote_code Qwen-7B-Chat', trust_remote_code=True, torch_dtype=torch.half, device_map="auto") 定义LoraConfig LoraConfig /qwen/Qwen-7B-Chat/', use_fast=False, trust_remote_code=True) tokenizer.pad_token_id = tokenizer.eod_id /qwen/Qwen-7B-Chat/', trust_remote_code=True, torch_dtype=torch.half, device_map="auto") model.enable_input_require_grads

    77210编辑于 2025-07-17
  • Qwen-7B-chat 全量微调

    Qwen-7B-chat 全量微调 修改代码 首先我们要准训练模型的代码,这里我们使用的 modelscope 上的 Qwen-7B-chat 模型,大家自行下载即可。 只不过在全量微调的时候没有加载 LoraConfig,那我就直接给出代码,如果对代有什么问题,大家可以先自行探索Qwen lora的代码解释,有什么不懂的地方可以提Issue。 /model/qwen/Qwen-7B-Chat/") # 用于处理数据集的函数 def process_func(example): MAX_LENGTH = 128 # Llama分词器会将一个中文字切分为多个 tokenizer = AutoTokenizer.from_pretrained(finetune_args.model_path, use_fast=False, trust_remote_code 创建模型并以半精度形式加载 model = AutoModelForCausalLM.from_pretrained(finetune_args.model_path, trust_remote_code

    49710编辑于 2025-07-17
  • 来自专栏大模型本地部署

    Qwen3.5本地部署

    0.简介本教程参考了Unsloth上有关Qwen3.5部署的教程,但是国内由于网络等原因,部署的时候会遇到一系列问题,因此以下给出逐一解决的方法。后续会持续更新Qwen3.5其他系列模型。 1.Qwen3.5-35B-A3B1.1.Tips在本指南中我们将使用Dynamic4-bit,在24GBRAM/Mac设备上可实现快速推理效果。 根据你的用例,遵循下面的特定命令之一:1.2.2.1.思考模式精确编码任务:exportLLAMA_CACHE="unsloth/Qwen3.5-35B-A3B-GGUF". \--top-k20\--min-p0.00通用任务:exportLLAMA_CACHE="unsloth/Qwen3.5-35B-A3B-GGUF". /llama.cpp/llama-cli\--modelunsloth/Qwen3.5-35B-A3B-GGUF/Qwen3.5-35B-A3B-UD-Q4_K_XL.gguf\--mmprojunsloth

    1.8K00编辑于 2026-03-06
  • Qwen-7B-Chat Ptuning 微调

    Qwen-7B-Chat Ptuning 微调 Ptuning原理 参考transformers-code 数据加载与模型配置与LoRa一致,在此具体讲一下Ptuning的细节: 基本原理为冻结主模型全部参数 labels = [-100] * len(instruction["input_ids"]) + response["input_ids"] + [tokenizer.pad_token_id] # Qwen /output/Qwen", per_device_train_batch_size=2, gradient_accumulation_steps=2, logging_steps /Qwen-7B-Chat', use_fast=False, trust_remote_code=True) tokenizer.pad_token_id = tokenizer.eod_id /Qwen-7B-Chat', trust_remote_code=True, torch_dtype=torch.half, device_map="auto") # model.enable_input_require_grads

    37710编辑于 2025-07-17
  • 来自专栏LLM

    万字长文解读Qwen进化史:27篇论文深度复盘Qwen模型家族

    本篇将按照时间倒序从2026年3月追溯至2023年9月,梳理了Qwen生态系统中发布的27项LLM核心技术成果:基座大模型历经QwenQwen2→Qwen2.5→Qwen3→Qwen3.5持续迭代升级 :https://huggingface.co/Qwen/Qwen3.5-397B-A17B作为Qwen生态截至现在的巅峰之作,Qwen3.5系列彻底贯彻了「全模态原生」与「线性注意力」的两大技术路线。 /Qwen3-CoderHuggingFace:https://huggingface.co/Qwen/Qwen3-Coder-NextQwen3-Coder-Next拥有80B的总参数量,但通过极度稀疏的 :https://huggingface.co/Qwen/Qwen3Guard-Stream-4BQwen3Guard是Qwen3系列配套的多语言安全护栏模型,模型覆盖119种语言与方言,提供0.6B/ 是GTE-Qwen(GeneralTextEmbeddings)系列的重大升级,底座从Qwen2.5切换为Qwen3LLM,语言能力大幅提升。

    1.2K20编辑于 2026-03-12
  • 来自专栏Python与算法之美

    Qwen7b微调保姆级教程

    _7b' #远程:'Qwen/Qwen-7b-Chat' bnb_config=BitsAndBytesConfig( load_in_4bit=True, weight=False, ) tokenizer = AutoTokenizer.from_pretrained( model_name_or_path, trust_remote_code trust_remote_code=True) model.generation_config = GenerationConfig.from_pretrained(model_name_or_path cp qwen_7b/*.py qwen_torchkeras/ 五,使用模型 为减少GPU压力,此处可再次重启kernel释放显存。 已经在Qwen的自我认知中,种下了一颗梦中情炉的种子。

    2.5K31编辑于 2023-09-17
  • Qwen-7B-hat Transformers 部署调用

    Qwen-7B-hat Transformers 部署调用 环境准备 在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu20.04 transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig model_dir = '/root/autodl-tmp/qwen /Qwen-7B-Chat' tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained (model_dir, device_map="auto", trust_remote_code=True).eval() # Specify hyperparameters for generation model.generation_config = GenerationConfig.from_pretrained(model_dir, trust_remote_code=True) # 可指定不同的生成长度

    39410编辑于 2025-07-17
  • 来自专栏AI早知道

    OpenAI ChatGPT功能大升级,NVIDIA斯坦福开源游戏AI,通义千问Qwen Code生态扩展,中国AI产业突破万亿大关

    OpenAI在ChatGPT功能增强方面的新进展、NVIDIA与斯坦福在游戏AI领域的突破、通义千问Qwen Code的生态扩展,以及中国AI产业万亿级产值的里程碑。 阿里巴巴:通义千问Qwen Code重磅升级至v0.5.0,从命令行工具迈向完整开发生态核心事件:阿里巴巴通义实验室发布Qwen Code重大更新,从命令行工具升级至v0.5.0版本,标志着其向完整的AI 技术细节:升级后的Qwen Code不再仅仅是命令行工具,而是转型为完整开发生态,提供更丰富的编程辅助功能,包括代码生成、调试、重构等完整的开发流程支持。 实用建议:国内开发者可以关注Qwen Code的生态发展,尝试将其集成到自己的开发流程中,以提升编程效率。3. 智谱AI推出轻量级AI代码编辑器"Z Code",引领编程新潮流核心事件:智谱AI推出轻量级AI代码编辑器"Z Code",专注于提升开发者编程效率。

    21510编辑于 2025-12-26
  • 来自专栏叶子的数据科技专栏

    使用 Qwen-Agent 结合浏览器插件

    git clone https://github.com/QwenLM/Qwen-Agent.gitcd Qwen-Agentpip install -e . /"[gui,rag,code_interpreter,python_executor]"# Or `pip install -e ./` for minimal requirements.# 指定模型服务 # 示例: 假设Qwen1.5-72B-Chat已经通过vLLM部署于http://localhost:8000/v1,则可用以下参数指定模型服务:# --llm Qwen1.5-72B-Chat 顺便说一下,魔搭社区提供了每天 1000 次的 Qwen/Qwen2.5-72B-Instruct 等模型的免费额度,可以用来测试。创建守护进程在实际的运行中,为了避免每次启动服务,可以创建守护进程。 引用Qwen-Agent/browser_qwen_cn.md at main · QwenLM/Qwen-Agent · GitHub

    1.1K10编辑于 2024-12-21
  • 来自专栏XRSec.Blog

    code-server code-server arm

    \ --link vs-db \ xrsec/code-server:arm View image.png initialization Make code-server docker run -it /bin/bash echo "start code-server succers" /bin/bash' > code-server.sh sudo chmod 777 code-server.sh sudo chown root code-server.sh docker cp code-server.sh code-server:/ docker start code-server docker /code-server-3.8.1-amd64.rpm rpm -ivh code-server-3.8.1-amd64.rpm Other code-server Inatall BT wget - & echo "start code-server succers" /bin/bash' > /code-server.sh chmod 777 /code-server.sh exit docker

    2.2K20编辑于 2022-02-11
  • 来自专栏vscode从0到高手

    Claude Code正式发布VS Code插件!

    人生不过尔尔 不必自困于心 好消息:现在你的 VS Code 可以拥有一个会聊天、能改代码、懂上下文的 AI 副驾驶——它就是 Claude Code 插件! Claude Code 是 Anthropic 官方推出的 VS Code 插件,基于 Claude 大模型,专为开发者设计。 一个 Anthropic 账号 安装步骤 打开 VS Code,按 Ctrl+Shift+X(Windows)或 Cmd+Shift+X(Mac) 搜索 “Claude Code” 点击 Install anthropic.claude-code 3. 进入 VS Code 设置 → Extensions → Claude Code → 勾选 “Use Terminal” 安全设置建议 初始权限模式:保持默认(每次修改都问你) 禁用自动保存:避免意外覆盖

    3.2K11编辑于 2026-02-27
  • Qwen1.5-7B-Chat FastApi 部署调用

    Qwen1.5-7B-Chat FastApi 部署调用 环境准备 在 Autodl 平台中租赁一个 3090 等 24G 显存的显卡机器,如下图所示镜像选择 PyTorch–>2.0.0–>3.8(ubuntu20.04 modelscope import snapshot_download, AutoModel, AutoTokenizer import os model_dir = snapshot_download('qwen /Qwen1.5-7B-Chat', cache_dir='/root/autodl-tmp', revision='master') 代码准备 在 /root/autodl-tmp 路径下新建 api.py 返回响应 # 主函数入口 if __name__ == '__main__': # 加载预训练的分词器和模型 model_name_or_path = '/root/autodl-tmp/qwen /Qwen1.5-7B-Chat' tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=False)

    41410编辑于 2025-07-17
领券